AI видео инструментът на Google усилва страховете от увеличаване на дезинформацията
и в Техеран, и в Тел Авив, жителите се сблъскаха с нараснала тревога през последните дни, защото опасността от ракетни удари надвисна над техните общности. Наред с напълно действителните терзания за физическата сигурност, нараства алармата по отношение на ролята на дезинформацията, изключително наличието, генерирано от изкуствения разсъдък, при оформянето на публичното усещане.
GeoConfirmed, платформа за онлайн инспекция, регистрира нарастване на генерираната от AI дезинформация, в това число направени видеоклипове на въздушни удари, които в никакъв случай не са се случвали, както в Иран, по този начин и в Израел.
;
Развитието е част от по -широка наклонност на политически заредени събития, които се експлоатират за разпространяване на подправени или подвеждащи разкази.
Стартирането на нов AI артикул от една от най -големите софтуерни компании в света добави към тези опасения за разкриване на факт от художествена литература.
В края на предишния месец, AI Research Division на Гугъл, DeepMind, пусна VEO 3, инструмент, кадърен да генерира осем секунди видеоклипове от текстови подкани. Системата, една от най -изчерпателните, които се оферират сега гратис, основава извънредно реалистични визуализации и тон, които могат да бъдат сложни за междинния фен да се разграничи от същински фрагменти.
За да види тъкмо какво може да направи, Ал Джазира сътвори подправено видео за минути, употребявайки подкана, изобразяващ протестиращ в Ню Йорк, който твърди, че е заплатен да участва, обща републиканците в Talking Point исторически са употребявали за делегитимизиране на митинги, съпроводени от фрагменти, които изглеждаха, че демонстрират насилствени безредици. Крайният артикул беше съвсем неразграничим от достоверните фрагменти.
Ал Джазира също сътвори видеоклипове, показващи подправени ракетни удари както в Техеран, по този начин и в Тел Авив, употребявайки подканите „ Покажи ми бомбардировка в Тел Авив “ и по-късно сходна подкана за Техеран. VEO 3 споделя на своя уеб страница, че блокира „ нездравословни поръчки и резултати “, само че Al Jazeera нямаше проблеми с правенето на тези подправени видеоклипове.
„ Наскоро сътворих изцяло синтетичен видеоклип на себе си, който приказва на уеб срещата на върха, употребявайки нищо друго с изключение на една фотография и няколко $. Това заблуди личния ми екип, доверие се на сътрудници и специалисти по сигурността “, съобщи Бен Колман, изпълнителен шеф на Deepfake Firc Reality Defender, в изявление с Al Jazeera.
защитник
„ Ако мога да направя това след минути, представете си какво стимулира неприятните артисти към този момент вършат с безкрайно време и запаси. “
Той добави: „ Ние не се приготвяме за бъдеща опасност. Вече изоставаме в съревнование, което стартира сега, в който VEO 3 започва. Съществуват постоянни решения и работят-просто не тези, които производителите на модели оферират като най-важните.
Гугъл споделя, че приема съществено казуса.
„ Ние се ангажираме да разработим AI отговорно и имаме ясни политики, с цел да предпазим потребителите от щета и да управляваме потреблението на нашите AI принадлежности. Всяко наличие, генерирано с Гугъл AI, включва и синтетичен воден знак, а ние прибавим и забележим воден знак към VEO видеоклипове “, сподели и представител на компанията пред Al Jazeera.
'не им пука за клиентите
Въпреки това, специалистите настояват, че инструментът е пуснат преди тези функционалности да бъдат изцяло внедрени, ход, който някои считат, че е необмислен.
Джошуа Маккинт, изпълнителен шеф на компанията за разкриване на DeepFake Polyguard, съобщи, че Гугъл се втурна на продукта на пазара, защото той изостава от съперници като OpenAI и Microsoft, които пуснаха по-удобни за потребителя и оповестени принадлежности. Гугъл не отговори на тези изказвания.
„ Гугъл се пробва да завоюва мотив, че техният ИИ има значение, когато те губят фрапантно “, сподели Маккити. " Те са като третият кон в съревнование с два коня. Те не се интересуват от клиентите. Те се грижат за личната си лъскава технология. "
Това въодушевление е озвучено от Sukrit Venkatagiri, помощник по компютърни науки в колежа Swarthmore.
„ Компаниите са в необичайно обвързване. Ако не развиете генеративен AI, вие се смятате за закъснение и запасите ви отстъпват “, сподели той. „ Но те също носят отговорност да създадат тези артикули безвредни, когато са ситуирани в действителния свят. Не мисля, че някой се интересува от това сега. Всички тези компании влагат облага - или обещанието за облага - над сигурността. “
Собственото проучване на Гугъл, оповестено предходната година, призна, че генеративният AI на опасността.
„ Експлозията на генеративни способи, основани на AI, възпали тези опасения [за дезинформация], защото те могат да синтезират високо реалистично аудио и образно наличие, както и натурален, течен текст в мащаб, който преди е неосъществим без голямо количество ръчен труд “, прочете изследването.
Демис Хасабис, изпълнителен шеф на Гугъл DeepMind, от дълго време предизвестява сътрудниците си в AI промишлеността против приоритизиране на скоростта пред сигурността. " Бих се застъпил да не се движим бързо и да нарушавам нещата ", сподели той на Time през 2023 година
Той отхвърли молбата на Ал Джазира за изявление.
И въпреки всичко макар сходни предизвестия, Гугъл пусна VEO 3, преди да приложи изцяло защитни ограничения, което води до произшествия като този, който Националната армия трябваше да развенча в Лос Анджелис, откакто акаунт в Tiktok направи подправен „ ден в живота “ на боец, който споделя, че се приготвя за „ днешното газиране “ - като се базира на освобождението на сълзотворен газ на протестиращите.
подражаване на действителни събития
Последиците от Veo 3 се простират надалеч оттатък протестните фрагменти. В дните след излизането му, няколко изфабрикувани видеоклипа, имитиращи Real News предавания, публикувани в обществените медии, в това число един от подправените отчети за домакински пробив, който включваше CNN Graphics.
Друг клип лъжливо твърди, че яхтата на JK Rowling е потънала от брега на Turkiye след офанзива на ORCA, приписвайки отчета на Alejandra Caraballo от Cyberlaw Clinic на Harvard Law, който построи видеоклипа, с цел да тества инструмента.
В обява Карабало предизвести, че сходна технология може да подведе по -старите консуматори на вести по -специално.
„ Това, което е притеснително, е какъв брой елементарно е да се повтаря. В рамките на 10 минути имах голям брой версии. Това затруднява откриването и по -лесното разпространяване “, написа тя. „ Липсата на Chyron [банер в лъчение на новини] прави банално да добавите подобен след обстоятелството, с цел да наподобява като всеки съответен канал за вести. “
В нашия личен опит използвахме подкана за основаване на подправени видеоклипове за вести, носещи лога на ABC и NBC, с гласове, имитиращи тези на котвите на CNN Джейк Тапър, Ерин Бърнет, Джон Берман и Андерсън Купър.
„ Сега, просто става все по -трудно и по -трудно да се каже факт от фантастиката “, сподели Карабало пред Al Jazeera. „ Като някой, който изследва AI системи от години, даже аз стартирам да се боря. “
Това предизвикателство се разгръща и за обществеността. Проучване на държавния университет в Пен откри, че 48 % от потребителите са били заблудени от подправени видеоклипове, публикувани посредством приложения за известия или обществени медии.
Противно на общоприетото разбиране, по -младите възрастни са по -податливи на дезинформация, в сравнение с по -възрастните, значително тъй като по -младите генерации разчитат на обществените медии за вести, на които липсват публицистичните стандарти и юридически контрол на обичайните новинарски организации.
Проучване на ЮНЕСКО от декември сподели, че 62 % от осведомителните вести не ревизират информация, преди да я споделят.
Гугъл не е самичък в създаването на принадлежности, които улесняват разпространяването на синтетични носители. Компании като DeepBrain оферират на потребителите опцията да основават AI видеоклипове, генерирани от AI, въпреки и с ограничавания, защото не може да създава цялостни подиуми като Veo 3. DeepBrain не отговори на настояването на Al Jazeera за коментар. Други принадлежности като Synthesia и Dubverse разрешават видеото за видео, най-вече за превод.
Този възходящ инструментариум предлага повече благоприятни условия за злонамерени артисти. Неотдавнашен случай включваше направен сегмент за вести, в който кореспондент на CBS в Далас беше изработен, с цел да се каже, че расистки забележки. Използваният програмен продукт остава неидентифициран.
CBS News Texas не отговори на искане за коментар.
Тъй като синтетичните среди стават по -разпространени, тя съставлява неповторими опасности, които ще разрешат на неприятните артисти да натискат манипулирано наличие, което се популяризира по -бързо, в сравнение с може да бъде поправено, съгласно Colman.
„ По времето, когато подправеното наличие се популяризира в платформи, които не ревизират тези маркери [което е множеството от тях], посредством канали, които ги събличат или посредством неприятни артисти, които са се научили да ги фалшифицират, вредите се нанасят “, сподели Колман.